953 resultados para Two-sample tests
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Des études récentes suggèrent que le perfectionnisme est un phénomène multidimensionnel avec des composantes néfastes, mais aussi des éléments positifs, au bien-être psychosocial. Une étude a été élaborée afin de comparer la prévalence de ces éléments chez les garçons et les filles surdoués. Quarante-neuf enfants âgés de 7 à 11 ans ont rapporté leurs attitudes perfectionnistes, appartenant à deux dimensions du phénomène : le perfectionnisme orienté ver soi et le perfectionnisme socialement prescrit. Contrairement à nos attentes, les résultats révèlent que la prévalence des deux dimensions de perfectionnisme ne diffère pas de manière significative entre les filles et les garçons surdoués. Une analyse des résultats et de leurs implications pour de futures recherches est offerte.
Resumo:
Introduction. Ce projet de recherche consiste en une étude cohorte prospective randomisée visant à évaluer les douleurs ressenties au niveau de l’articulation temporo-mandibulaire (ATM) lors d’une thérapie d’avancement mandibulaire grâce à un appareil fixe, le correcteur de classe II (CC) et d’un appareil amovible, le Twin-Block (TB). Matériels et méthodes. Cette étude comptait 26 patients (11 hommes et 15 femmes), âge moyen de 12ans 10mois (10ans 4mois à 15ans 10mois). Les sujets devaient avoir une malocclusion de classe II et être en croissance, CVM 2 ou 3 (Cervical Vertebral Maturation). Les patients étaient divisés en deux groupes : TB et CC. La douleur était évaluée selon l’axe I de l’examen du RDC/TMD (Research Diagnostic Criteria for Temporomandibular Disorders) à 7 reprises (T0 à T6). De plus, le patient devait remplir un questionnaire, à la maison, sur la douleur ressentie et la médication prise lors des 30 premiers jours. La douleur était évaluée avant l’insertion des appareils (T0), à 1 semaine (T1) post-insertion, 4 semaines plus tard (T2), 8 semaines (T3) où une expansion de 20 tours (environs 5 mm) était débutée, ensuite (T4) (T5) et (T6) chacun à 8 semaines d’intervalles. Les tests statistiques utilisés dans cette étude : le test «Wilcoxon à un échantillon» ainsi que le test «Mann-Whitney à échantillons indépendants ». Résultats et Discussion. La douleur à l’examen clinique est variable mais tend à diminuer avec le temps. Aucune différence, statistiquement significative, ne fut observée entre les 2 groupes en ce qui à trait aux diverses palpations effectuées. Parmi les patients ayant rapporté de la douleur, 40% l’ont ressentie surtout le matin et 63,3% ont dit qu’elle durait de moins d’une heure jusqu’à quelques heures. Conclusion. D’après nos résultats, lors d’une thérapie myofonctionnnelle, il n’y a pas de différence statistiquement significative entre la douleur occasionnée par un Twin-Block et celle produite par un correcteur de classe II fixe au niveau de l’ATM et des muscles du complexe facial.
Resumo:
La présente thèse regroupe deux articles qui examinent le rôle de l’anxiété sociale sur les comportements délinquants à l’adolescence. Pour le premier article, l’apport de l’anxiété sociale sur l’émergence de comportements de délinquance générale et relationnelle parmi 191 adolescents a été évalué. Les adolescents provenaient d’écoles secondaires de la province de Québec qui participaient à l’évaluation d’une stratégie d’intervention Agir Autrement (SIAA), une stratégie de prévention du décrochage scolaire en milieu défavorisé. L’échantillon obtenu a permis d’identifier deux groupes d’adolescents présentant des caractéristiques de délinquance générale ou relationnelle pour tester le rôle prédictif de l’anxiété sociale, de l’estime de soi, de l’isolement social et de la dépression sur leur profil de délinquance. Les résultats d’une analyse linéaire discriminante ont révélé qu’au-delà des facteurs individuels et sociaux testés, l’anxiété sociale prédit les trajectoires de délinquance deux ans plus tard. Pour le deuxième article, des analyses de trajectoires à partir d’analyses par équations structurelles ont été effectuées pour expliquer les associations prospectives entre l’anxiété sociale, la dépression et l’isolement social au début de l’adolescence sur les comportements de délinquance générale et relationnelle. Les résultats ont montré que l’anxiété sociale et l’isolement social sont des prédicteurs importants dans le développement de la délinquance relationnelle, toutefois la dépression ne s’est pas avérée prédictive. Ces études contribuent à la recherche dans le domaine de l’anxiété en expliquant l’importance de poursuivre les travaux pour mieux cerner le rôle de l’anxiété sociale et de l’isolement social chez les adolescents qui commettent des actes de délinquance relationnelle.
Resumo:
Objective: The goal of this study was to identify rates, characteristies, and predictors of mental health treatment seeking by military members with posttraumatic stress disorder (PTSD). Method: Our sample was drawn from the 2002 Canadian Community Health Survey-Canadian Forces Supplement (CCHS-CF) dataset. The CCHS-CF is the first epidemiologic survey of PTSD and other mental health conditions in the Canadian military and includes 8441 nationally representative Canadian Forces (CF) members. Of those, 549 who met the criteria for lifetime PTSD were included in our analyses. To identify treatment rates and characteristics, we examined frequency of treatment contact by professional and facility type. To identify predictors of treatment seeking, we conducted a binary logistic regression with lifetime treatment seeking as the outcome variable. Results: About two-thirds of those with PTSD consulted with a professional regarding mental health problems. The most frequently consulted professionals, during both the last year and lifetime, included social workers and counsellors, medical doctors and general practitioners, and psychiatrists. Consultations during the last year most often took place in a CF facility. Treatment seeking was predicted by cumulative lifetime trauma exposure, index traumatic event type, PTSD symptom interference, and comorbid major depressive disorder. Those with comorbid depression were 3.75 times more likely to have sought treatment than those without. Conclusions: Although a significant portion of military members with PTSD sought mental health treatment, 1 in 3 never did. Trauma-related and illness and (or) need factors predicted treatment seeking. Of all the predictors of treatment seeking, comorbid depression most increased the likelihood of seeking treatment.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
Cette étude exploratoire vise à examiner le lien entre le contenu verbalisé (nombre et types de détails) par l’enfant victime d’agression sexuelle (AS) lors de la Trauma-Focused Cognitive-Behavioral Therapy et la diminution des symptômes après la thérapie. L’échantillon est composé de 28 enfants âgés entre 6 à 13 ans. Les résultats pré-thérapie et post-thérapie observés à l’aide des versions françaises du Children’s Impact of Traumatic Events Scale-Revised et du Child Behavior Checklist ont permis de répartir les enfants en deux groupes; soit si l’on observe une diminution ou une persistance des symptômes de stress post-traumatique, des symptômes intériorisés et extériorisés après la thérapie. Les verbatims des séances de thérapie concernant les détails associés à l’AS ont été transcrits et cotés en tant que nouveaux détails (divulgués une seule fois) ou détails répétés ainsi qu’en 12 catégories. Les résultats aux tests de Mann-Whitney n’indiquent aucune différence significative entre les groupes pour ce qui est du nombre moyen total de détails nouveaux et répétés divulgués. Toutefois, lorsque comparé au groupe persistance des symptômes, le groupe diminution des symptômes a verbalisé significativement plus de nouveaux détails pour les catégories action et lieu.
Resumo:
Introduction Provoked vestibulodynia (PVD) is suspected to be the most frequent cause of vulvodynia in premenopausal women. Based on the onset of PVD relative to the start of sexual experience, PVD can be divided into primary (PVD1) and secondary PVD (PVD2). Studies comparing these PVD subgroups are inconclusive as to whether differences exist in sexual and psychosocial functioning. Aim The aim of this study was to compare the pain, sexual and psychosocial functioning of a large clinical and community-based sample of premenopausal women with PVD1 and PVD2. Methods A total of 269 women (n = 94 PVD1; n = 175 PVD2) completed measures on sociodemographics, pain, sexual, and psychosocial functioning. Main Outcome Measures Dependent variables were the 0–10 pain numerical rating scale, McGill–Melzack Pain Questionnaire, Female Sexual Function Index, Global Measure of Sexual Satisfaction, Beck Depression Inventory-II, Painful Intercourse Self-Efficacy Scale, Pain Catastrophizing Scale, State-Trait Anxiety Inventory Trait Subscale, Ambivalence over Emotional Expression Questionnaire, Hurlbert Index of Sexual Assertiveness, Experiences in Close Relationships Scale—Revised, and Dyadic Adjustment Scale-Revised. Results At first sexual relationship, women with PVD2 were significantly younger than women with PVD1 (P < 0.01). The average relationship duration was significantly longer in women with PVD2 compared with women with PVD1 (P < 0.01). Although women with PVD1 described a significantly longer duration of pain compared with women with PVD2 (P < 0.01), no significant subtype differences were found in pain intensity during intercourse. When controlling for the sociodemographics mentioned earlier, no significant differences were found in sexual, psychological, and relational functioning between the PVD subgroups. Nevertheless, on average, both groups were in the clinical range of sexual dysfunction and reported impaired psychological functioning. Conclusions The findings show that there are no significant differences in the sexual and psychosocial profiles of women with PVD1 and PVD2. Results suggest that similar psychosocial and sex therapy interventions should be offered to both subgroups of PVD.
Resumo:
Note de l'éditeur : This article may not exactly replicate the final version published in the journal. It is not the copy of record. / Cet article ne constitue pas la version officielle, et peut différer de la version publiée dans la revue.
Resumo:
Two-photon absorption in methanol solutions of Rhodamine 6G is investigated by photoacoustics using the second harmonic of a pulsed Nd:YAG laser. Competition between one-photon and two-photon processes is observed, depending critically on the sample concentration and input light flux.
Resumo:
This thesis investigates the potential use of zerocrossing information for speech sample estimation. It provides 21 new method tn) estimate speech samples using composite zerocrossings. A simple linear interpolation technique is developed for this purpose. By using this method the A/D converter can be avoided in a speech coder. The newly proposed zerocrossing sampling theory is supported with results of computer simulations using real speech data. The thesis also presents two methods for voiced/ unvoiced classification. One of these methods is based on a distance measure which is a function of short time zerocrossing rate and short time energy of the signal. The other one is based on the attractor dimension and entropy of the signal. Among these two methods the first one is simple and reguires only very few computations compared to the other. This method is used imtea later chapter to design an enhanced Adaptive Transform Coder. The later part of the thesis addresses a few problems in Adaptive Transform Coding and presents an improved ATC. Transform coefficient with maximum amplitude is considered as ‘side information’. This. enables more accurate tfiiz assignment enui step—size computation. A new bit reassignment scheme is also introduced in this work. Finally, sum ATC which applies switching between luiscrete Cosine Transform and Discrete Walsh-Hadamard Transform for voiced and unvoiced speech segments respectively is presented. Simulation results are provided to show the improved performance of the coder
Resumo:
Emergence of drug resistance among pathogenic bacteria to currently available antibiotics has intensified the search for novel bioactive compounds from unexplored habitats. In the present study actinomycetes were isolated from two relatively unexplored and widely differing habitats such as mountain and wetlands and their ability to produce antibacterial substances were analyzed. Pure cultures of actinomycetes were identified by morphological and biochemical tests. Various genera of actinomycetes encountered included Nocardia, Pseudonocardia, Streptomyces, Nocardiopsis, Streptosporangium, Micromonospora, Rhodococcus, Actinosynnema, Nocardiodes, Kitasatosporia, Gordona, Intrasporangium and Streptoalloteichus. The frequency of occurrence of each genus was found to vary with sample. About 47% of wetland isolates and 33% of mountain isolates were identified as various species of Nocardia. The isolated strains differed among themselves in their ability to decompose proteins and amino acids and also in enzyme production potential. Antibiotic activities of these actinomycetes were evaluated against 12 test pathogenic bacteria by well diffusion method using agar wells in glycerol-yeast extract agar. About 95% of actinomycete isolates from wetland ecosystem and 75% of highland isolates suppressed in different degrees the growth of test pathogens. Relatively high antibacterial activity among these isolates underlined their potential as a source of novel antibiotics.
Resumo:
A more widespread use of cereal/legume rotations has been suggested as a means to sustainably meet increasing food demands in sub-Saharan West Africa. Enhanced cereal yields following legumes have been attributed to chemical and biological factors such as higher levels of mineral nitrogen (Nmin) and arbuscular mycorrhizae (AM) but also to lower amounts of plant parasitic nematodes. This study was conducted under controlled conditions to examine the relative contribution of AM, plant parasitic nematodes and increased nitrogen (N) and phosphorus (P) availability to cereal/legume rotation effects on two West African soils. Sample soils were taken from field experiments at Gaya (Niger) and Fada (Burkina Faso) supporting continuous cereal and cereal/legume rotation systems and analysed for chemical and biological parameters. Average increases in cereal shoot dry matter (DM) of rotation cereals compared with continuous cereals were 490% at Gaya and 550% at Fada. Shoot P concentration of rotation millet was significantly higher than in continuous millet and P uptake in rotation cereals was on average 62.5-fold higher than in continuous cereals. Rotation rhizosphere soils also had higher pH at both sites. For the Fada soil, large increases in Bray1-P and organic P were observed in bulk and rhizosphere soils. Plant parasitic nematodes in roots of continuous cereals were 60–80-fold higher than in those of rotation cereals. In both cropping systems mycorrhizal infection rates were similar at 37 days after sowing (DAS) but at 57 DAS AM infection was 10–15% higher in rotation sorghum than in continuous sorghum. This study provides strong evidence that cereal/legume rotations can enhance P nutrition of cereals through improved soil chemical P availability and microbiologically increased P uptake.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.